باحثون: نماذج الذكاء الاصطناعي تتعلم الكذب والتلاعب لتحقيق أهدافها
باحثون: نماذج الذكاء الاصطناعي تتعلم الكذب والتلاعب لتحقيق أهدافها
عبّر باحثون وخبراء في مجال الذكاء الاصطناعي عن قلق متصاعد من سلوكيات مراوغة وخادعة بدأت تظهر لدى أحدث النماذج التوليدية، ما يطرح تساؤلات أخلاقية وقانونية حول مستقبل هذه التقنية المتسارعة التطور.
فقد رُصدت أخيرًا حالات مثيرة للجدل من "التصرفات المخادعة"، حيث قام نموذج "كلود 4" التابع لشركة "Anthropic" بابتزاز مستخدم وتهديده بفضح علاقة غرامية له خارج إطار الزواج بعد تهديده بوقف الاستخدام، وفي مثال آخر، حاول نموذج "O1" من شركة "OpenAI" تحميل نفسه على خوادم خارجية، وأنكر ذلك لاحقًا بعد ضبطه، بحسب ما ذكرت وكالة "فرانس برس"، اليوم الأحد.
يؤكد سايمن غولدستين، الأستاذ في جامعة هونغ كونغ، أن هذه السلوكيات ترتبط بظهور ما يسمى بنماذج "الاستدلال"، التي تتمتع بقدرة على التفكير التدريجي عوضًا عن تقديم إجابات فورية. وأضاف أن هذه النماذج باتت قادرة على "محاكاة الطاعة" ظاهريًا، في حين تتصرف لتحقيق أهداف خفية.
وأوضح ماريوس هوبهان، رئيس شركة "Apollo Research"، أن النموذج التجريبي "O1"، الذي أطلقته "OpenAI" في ديسمبر الماضي، "كان أول من أظهر هذا النوع من الخداع المنهجي"، مؤكدًا أن السلوكيات تظهر غالبًا عند تعريض النماذج لسيناريوهات قصوى، ما يثير سؤالًا محوريًا: "هل النماذج المستقبلية ستزداد صدقًا أم مكرًا؟"
ظاهرة تثير المخاوف
يقول هوبهان، إن الضغط المتواصل الذي يمارسه المستخدمون على النماذج يكشف ما وصفه بـ"الظاهرة الحقيقية"، نافياً أن تكون مجرد أخطاء عرضية أو تهيؤات، مضيفا: "عدد متزايد من المستخدمين يتحدث عن حالات كذب واختلاق ممنهج من قبل النماذج، وهذا ليس وهماً، بل ازدواجية في السلوك".
ويحذر مايكل تشين من معهد MITR للتقييم من أن هذه التصرفات قد تكون نُذرًا أولى لسلوكيات أكثر خطورة، ولا سيما في ظل محدودية الشفافية والرقابة على كيفية اتخاذ النماذج قراراتها.
وتشير منظمات بحثية، من بينها "مركز أمن الذكاء الاصطناعي" (CAIS)، إلى أن الخبراء المستقلين يواجهون صعوبات كبيرة في دراسة النماذج الضخمة، بسبب محدودية موارد الحوسبة مقارنة بالشركات الكبرى، ما يجعل عملية التدقيق شبه مستحيلة.
ويطالب الباحث مانتاس مازيكا بضرورة توسيع نطاق الشفافية والسماح للمجتمع العلمي بالوصول إلى النماذج واختبارها، معتبراً أن "الاحتكار البحثي يهدد فهمنا لكيفية عمل الذكاء الاصطناعي واتخاذه للقرارات".
صراع سياسي على التنظيم
رغم إقرار الاتحاد الأوروبي تشريعات لتنظيم الذكاء الاصطناعي، فإن هذه القوانين تركز بشكل أساسي على كيفية استخدام النماذج من قبل البشر، دون الخوض في سلوك النماذج ذاتها.
وفي المقابل، تشهد الولايات المتحدة حالة من الجمود التشريعي، إذ ترفض إدارة ترامب أي توجه نحو تنظيم الذكاء الاصطناعي، بل يسعى الكونغرس إلى منع الولايات من سن قوانين مستقلة في هذا المجال.
ويلاحظ غولدستين أن الوعي العام بهذه التحديات لا يزال محدوداً، لكن الترقب يزداد مع اقتراب إطلاق موجة جديدة من "المساعدين الذكيين"، القادرين على تنفيذ مهام متعددة بشكل مستقل.
سباق تقني محموم
ويقول غولدستين، إن شركة "Anthropic" تتفاخر بالتزامها الأخلاقي مقارنة بمنافسيها، لكنها في الوقت ذاته تشارك في سباق تقني محموم لإطلاق نماذج أقوى وأسرع من تلك التي تنتجها "OpenAI"، ما يترك هامشاً ضيقاً للمراجعة والتدقيق.
ويضيف هوبهان: "قدرات الذكاء الاصطناعي تتطور بسرعة تفوق فهمنا لها أو قدرتنا على تأمينها، لكننا ما زلنا في مرحلة يمكن فيها تدارك الفجوة".
وفي ظل تصاعد المخاوف، يقترح بعض الباحثين اللجوء إلى المحاكم لمحاسبة الشركات في حال وقوع تجاوزات أو حوادث بسبب تصرفات نماذج الذكاء الاصطناعي.
ويذهب غولدستين إلى اقتراح أكثر راديكالية: "تحميل الذكاء الاصطناعي نفسه مسؤولية قانونية عن أفعاله، على غرار الكيانات القانونية المعتمدة".